AI资讯新闻榜单内容搜索- LLM

AITNT-国内领先的一站式人工智能新闻资讯网站
# 热门搜索 #
搜索:  LLM
a16z 提出 AI 产品的「水晶鞋效应」:第一批用户反而是最忠诚的

a16z 提出 AI 产品的「水晶鞋效应」:第一批用户反而是最忠诚的

a16z 提出 AI 产品的「水晶鞋效应」:第一批用户反而是最忠诚的

前几天,AI 推理服务供应商 OpenRouter 发布了一份报告《State of AI》,基于平台上 60 多家提供商的 300 多个模型,100 万亿个 token 的交互数据,对 LLM 的实际应用情况进行了分析。报告中,提到了一个「灰姑娘水晶鞋效应」,特别有意思。研究者在分析用户留用数据时发现一个现象:AI 模型发布第一个月进来的用户,往往比后来进来的用户留存率更高。

来自主题: AI技术研报
7375 点击    2025-12-12 16:15
Khosla 继 OpenAI 后的最大赌注,General Intuition 凭 38 亿个游戏高光片段做世界模型

Khosla 继 OpenAI 后的最大赌注,General Intuition 凭 38 亿个游戏高光片段做世界模型

Khosla 继 OpenAI 后的最大赌注,General Intuition 凭 38 亿个游戏高光片段做世界模型

今年 10 月,专注构建世界模型的 General Intuition 完成了高达 1.34 亿美元的种子轮融资。这笔融资由硅谷传奇投资人 Vinod Khosla 领投,这是他自 2019 年首次投资 OpenAI 以来开出的最大单笔种子轮投资,也标志着他在 LLM 之后对下一代智能范式做出的一次重大下注。

来自主题: AI资讯
8987 点击    2025-12-11 10:59
扩散语言模型推理太慢?北大团队提出ODB-dLLM框架,破解计算访存双重瓶颈

扩散语言模型推理太慢?北大团队提出ODB-dLLM框架,破解计算访存双重瓶颈

扩散语言模型推理太慢?北大团队提出ODB-dLLM框架,破解计算访存双重瓶颈

基于扩散的大语言模型 (dLLM) 凭借全局解码和双向注意力机制解锁了原生的并行解码和受控生成的潜力,最近吸引了广泛的关注。例如 Fast-dLLM 的现有推理框架通过分块半自回归解码进一步实现了 dLLM 对 KV cache 的支持,挑战了传统自回归 LLMs 的统治地位。

来自主题: AI技术研报
5864 点击    2025-12-11 10:42
基于文本AI的终结?Agent协作可直接「复制思维」,Token效率暴涨

基于文本AI的终结?Agent协作可直接「复制思维」,Token效率暴涨

基于文本AI的终结?Agent协作可直接「复制思维」,Token效率暴涨

一直以来,传统 MAS 依赖自然语言沟通,各个 LLM 之间用文本交流思路。这种方法虽然可解释,但冗长、低效、信息易丢失。LatentMAS 则让智能体直接交换内部的隐藏层表示与 KV-cache 工作记忆,做到了:

来自主题: AI技术研报
7226 点击    2025-12-06 11:08
北航领衔发布300页代码智能综述:从基础模型到智能体,一次读懂Code LLM全景图

北航领衔发布300页代码智能综述:从基础模型到智能体,一次读懂Code LLM全景图

北航领衔发布300页代码智能综述:从基础模型到智能体,一次读懂Code LLM全景图

这篇学术论长文由北京航空航天大学复杂关键软件环境全国重点实验室领衔。《From Code Foundation Models to Agents and Applications》一文是对过去几年代码智能领域的一次系统梳理:模型、任务、训练、智能体、安全与应用都被串联成了一条完整、连贯的技术链路。

来自主题: AI技术研报
8465 点击    2025-12-06 10:54
Code LLM全景综述,从LLM到Agent,全文长303页,北航阿里字节等12家机构联合撰写|最新

Code LLM全景综述,从LLM到Agent,全文长303页,北航阿里字节等12家机构联合撰写|最新

Code LLM全景综述,从LLM到Agent,全文长303页,北航阿里字节等12家机构联合撰写|最新

这篇论文由北京航空航天大学、阿里巴巴、字节跳动、上海人工智能实验室等几十家顶尖机构联合撰写,全文长达303页,是对当前“代码大模型(Code LLMs)”领域最详尽的百科全书式指南。

来自主题: AI技术研报
11006 点击    2025-12-05 09:24
从 LLM 到 World Model:为什么我们需要能理解并操作世界的空间智能?

从 LLM 到 World Model:为什么我们需要能理解并操作世界的空间智能?

从 LLM 到 World Model:为什么我们需要能理解并操作世界的空间智能?

如今 LLM 的语言理解与生成能力已展现出惊人的广泛适用性,但随着 LLM 的发展,一个事实越发凸显:仅靠语言,仍不足以支撑真正的智能。

来自主题: AI技术研报
9725 点击    2025-12-04 09:57
Karpathy组建大模型「议会」,GPT-5.1、Gemini 3 Pro等化身最强智囊团

Karpathy组建大模型「议会」,GPT-5.1、Gemini 3 Pro等化身最强智囊团

Karpathy组建大模型「议会」,GPT-5.1、Gemini 3 Pro等化身最强智囊团

前 OpenAI 联合创始人、特斯拉 AI 总监 Andrej Karpathy 也一样。他在前几天发推,说自己「开始养成用 LLM 阅读一切的习惯」。Karpathy 在周六用氛围编程做了个新的项目,让四个最新的大模型组成一个 LLM 议会,给他做智囊团。

来自主题: AI资讯
9681 点击    2025-11-23 19:39
成本仅0.3美元,耗时26分钟!CudaForge:颠覆性低成本CUDA优化框架

成本仅0.3美元,耗时26分钟!CudaForge:颠覆性低成本CUDA优化框架

成本仅0.3美元,耗时26分钟!CudaForge:颠覆性低成本CUDA优化框架

CUDA 代码的性能对于当今的模型训练与推理至关重要,然而手动编写优化 CUDA Kernel 需要很高的知识门槛和时间成本。与此同时,近年来 LLM 在 Code 领域获得了诸多成功。

来自主题: AI技术研报
9602 点击    2025-11-18 10:06